9 research outputs found

    Dynamic surrogate modelling for multistep-ahead prediction of multivariate nonlinear chemical processes

    Get PDF
    This work proposes a methodology for multivariate dynamic modeling and multistep-ahead prediction of nonlinear systems using surrogate models for the application to nonlinear chemical processes. The methodology provides a systematic and robust procedure for the development of data-driven dynamic models capable of predicting the process outputs over long time horizons. It is based on using surrogate models to construct several nonlinear autoregressive exogenous models (NARX) with each one approximating the future behavior of one process output as a function of the current and previous process inputs and outputs. The developed dynamic models are employed in a recursive schema to predict the process future outputs over several time steps (multistep-ahead prediction). The methodology is able to manage two different scenarios: (1) one in which a set of input–output signals collected from the process is only available for training and (2) another in which a mathematical model of the process is available and can be used to generate specific datasets for training. With respect to the latter, the proposed methodology includes a specific procedure for the selection of training data in dynamic modeling based on design of computer experiment (DOCE) techniques. The proposed methodology is applied to case studies from the process industry presented in the literature. The results show very high prediction accuracies over long time horizons. Also, owing to the flexibility, robustness, and computational efficiency of surrogate modeling, the methodology allows dealing with a wide range of situations, which would be difficult to address using first-principles models.Peer ReviewedPostprint (author's final draft

    Optimal management of bio-based energy supply chains under parametric uncertainty through a data-driven decision-support framework

    Get PDF
    This paper addresses the optimal management of a multi-objective bio-based energy supply chain network subjected to multiple sources of uncertainty. The complexity to obtain an optimal solution using traditional uncertainty management methods dramatically increases with the number of uncertain factors considered. Such a complexity produces that, if tractable, the problem is solved after a large computational effort. Therefore, in this work a data-driven decision-making framework is proposed to address this issue. Such a framework exploits machine learning techniques to efficiently approximate the optimal management decisions considering a set of uncertain parameters that continuously influence the process behavior as an input. A design of computer experiments technique is used in order to combine these parameters and produce a matrix of representative information. These data are used to optimize the deterministic multi-objective bio-based energy network problem through conventional optimization methods, leading to a detailed (but elementary) map of the optimal management decisions based on the uncertain parameters. Afterwards, the detailed data-driven relations are described/identified using an Ordinary Kriging meta-model. The result exhibits a very high accuracy of the parametric meta-models for predicting the optimal decision variables in comparison with the traditional stochastic approach. Besides, and more importantly, a dramatic reduction of the computational effort required to obtain these optimal values in response to the change of the uncertain parameters is achieved. Thus the use of the proposed data-driven decision tool promotes a time-effective optimal decision making, which represents a step forward to use data-driven strategy in large-scale/complex industrial problems.Peer ReviewedPostprint (published version

    Data-driven soft-sensors for online monitoring of batch processes with different initial conditions

    Get PDF
    A soft-sensing methodology applicable to batch processes operated under changeable initial conditions is presented. These cases appear when the raw materials specifications differ from batch to batch, different production scenarios should be managed, etc. The proposal exploits the capabilities of the machine learning techniques to provide practical soft-sensing approach with minimum tuning effort in spite of the fact that the inherent dynamic behavior of batch systems are tracked through other online indirect measurements. Current data modeling techniques have been also tested within the proposed methodology to demonstrate its advantages. Two simulation case-studies and a pilot-plant case-study involving a complex batch process for wastewater treatment are used to illustrate the problem, to assess the modeling approach and to compare the modeling techniques. The results reflect a promising accuracy even when the training information is scarce, allowing significant reductions in the cost associated to batch processes monitoring and control.Peer ReviewedPostprint (author's final draft

    A contribution to chemical process operation support: new machine learning and surrogate models based approaches for process optimization, supervision and control

    Get PDF
    In the chemical process industry, the decision-making hierarchy is inherently model-based. The scale and complexity of the considered models (e.g., enterprise, plant or unit model) depend on the decision-making level (e.g., supply-chain management, planning, scheduling, operation) and the allowable time slot (weeks, hours, seconds) within which model simulation runs must be performed and their output is analyzed to support the decision making. The use of high-fidelity models, which include detailed physics-based description of the process, is attracting wide interests of the process engineers. Since, these First Principle Model (FPMs) are able to accurately predict the real behavior of the process, leading to realistic optimal decisions. However, their use is hindered by practical challenges as the high computational time required for their simulation and the unguaranteed reliability of their consistent convergence. The challenges become prohibitive at lower levels of the decision-making hierarchy (i.e., operation), where decisions are required online within time slots of minutes or seconds entailing lots of simulation runs using such complex and highly nonlinear FPMs. Surrogate modelling techniques are potential solution for these challenges, which relies on developing simplified, but accurate, data-driven or machine learning models using data generated by a FPM simulations, or collected from a real process. Although, there are progressive developments of surrogate-based methods in the chemical engineering area, they are concentrated in process design and steady-state optimization areas. This Thesis presents a framework for the proper and effective use of surrogate models and machine learning techniques in different phases of the process operation. The objective is to provide efficient methodologies, each supports the decision making in a specific phase of the process operation, namely; steady-state operation optimization, Model Predictive Control (MPC), multivariate system identification and multistep-ahead predictions, dynamic optimization, Fault Detection and Diagnosis (FDD) and soft-sensing. Each developed methodology is designated according to careful State-Of-Art (SOA) review that identifies the gaps and missing requirements to be covered. The SOA, identified gaps and the contributions of each methodology are summarized in Chapter 1 and detailed in the introduction of each of the following chapters. In this context, Chapter 3 presents a surrogate-based methodology for steady-state operation optimization of complex nonlinear chemical processes modelled by black-box functions. Chapter 4 proposes machine learning-based methodologies for multiparametric solution of complex operation optimization problems subjected to uncertainty. Chapter 5 presents a data-based multiparametric MPC methodology that enables simple implementations of explicit MPC for nonlinear chemical processes. Chapter 6 proposes a data-driven methodology for multivariate dynamic modelling of nonlinear chemical processes and for multistep-ahead prediction. Chapter 7 suggests a dynamic optimization methodology for solving optimal control problems of complex nonlinear processes based on data-driven dynamic models. Chapter 8 shows a hybrid methodology to improve FDD of chemical processes run under time-varying inputs based on multivariate data-driven dynamic models and classification techniques. Chapter 9 presents data-driven soft-sensing methodologies for batch processes operated under changeable initial conditions. The effectiveness of the developed methodologies is proved by comparing their performances to those of classical solution procedures existing in the SOA, via their applications to different benchmark examples and case studies. The promising results and their sound analysis allowed to publish many papers in top-ranked journals and proceedings, and to present them at several top-ranked international conferences including two Keynote presentations.En la Industria de Proceso, como en otros ámbitos, la toma de decisiones se basa en la valoración de las consecuencias de dichas decisiones a través de modelos (implícitos o explícitos). La escala y complejidad de los modelos necesarios dependen de la complejidad del proceso, del nivel jerárquico al que se toman las decisiones (p. ej.: gestión de la cadena de suministro, planificación de proceso, programación de operaciones, control) y del horizonte de tiempo considerado. El uso de modelos basados en principios básicos (First Principle Models (FPM) habitualmente permite predecir con precisión el comportamiento de un sistema y llevar así a decisiones fundamentadas y explicables. Sin embargo, su uso se ve obstaculizado por problemas prácticos, dado que en ocasiones requiere cálculos iterativos aún sin tener garantizada su convergencia a una solución factible. Estos problemas son más frecuentes a medida que se desciende en la jerarquía de toma de decisiones (p. ej.: control supervisor), especialmente si la resolución (optimización) del sistema implica muchos cálculos de simulación utilizando un FPM complejo (p. ej.: altamente no lineal, involucrando variables enteras, etc.). Una forma de superar estas dificultades consiste en aplicar técnicas basadas en “modelos subrogados” o sustitutos, construidos a partir de datos recopilados del proceso real, de datos previamente simulados (utilizando un FPM), o de una combinación de ambos. Aunque estos modelos se utilizan en muchas áreas, en el ámbito de la ingeniería química habitualmente se emplean solo para el diseño de procesos y en sistemas de optimización de estado estacionario. Esta tesis presenta un marco para el uso eficaz y eficiente de modelos subrogados, construidos mediante técnicas de aprendizaje automático, en la toma de decisiones en diferentes fases de la operación, el control y la optimización de un proceso. En este contexto, el Capítulo 3 presenta una metodología para la optimización de la operación en estado estacionario de procesos no lineales. El Capítulo 4 propone la utilización de metodologías basadas en el aprendizaje automático en problemas de optimización de operaciones sujetas a incertidumbre (optimización multiparamétrica). El Capítulo 5 extiende este planteamiento a la construcción de sistemas de control predictivo (MPC) explícito de procesos no lineales. El Capítulo 6 propone una metodología para la construcción sistemática de modelos subrogados en sistemas dinámicos no-lineales multivariable, metodología que se aplica en el capítulo 7 a la de optimización de procesos dinámicos (control óptimo de sistemas no lineales en estado no estacionario). Esta misma metodología se integra en el Capítulo 8 con técnicas de clasificación para su aplicación a la detección y diagnosis de fallos (Fault Detection and Diagnosis - FDD) de sistemas dinámicos multivariable. Finalmente, en el Capítulo 9 se presenta la aplicación de estas metodologías para el entrenamiento de sensores virtuales (“soft-sensors”) y su aplicación a procesos de producción por lotes que trabajan con condiciones iniciales cambiantes. Cada una de estas aplicaciones, y los prototipos resultantes, se han plateado después de una cuidadosa revisión de las aportaciones más recientes en estos campos, que ha permitido identificar las dificultades para la implementación de las técnicas existentes en sistemas prácticos de soporte a la toma de decisiones, y la forma de superar estas dificultades mediante la utilización de modelos alternativos, que se resumen en el Capítulo 1. La eficacia de las metodologías desarrolladas se ilustra a través del análisis de su aplicación a diferentes casos, tanto propuestos en esta Tesis como de referencia en los diferentes ámbitos de aplicación. Estos resultados han merecido su publicación en diferentes revistas científicas de primer nivel, así como su difusión a través de congresos internacionales de primer nivel, incluidas dos presentaciones de Keynote.Postprint (published version

    Multiparametric metamodels for model predictive control of chemical processes

    No full text
    This work proposes a Data-Based MultiParametric-Model Predictive Control (DBMPMPC) methodology, which enables simple implementations of explicit MPC in situations when the deep mathematical knowledge required to develop traditional MP-MPC techniques is not available. Additionally, it can also assist in situations when it is difficult to apply traditional MP-MPC, due to the process model complexity or high nonlinearity. The proposed method uses machine learning techniques (Ordinary Kriging (OK), Support Vector Regression (SVR) and Artificial Neural Networks (ANN)), which are trained offline using input-output information. During the online application, the optimal control is calculated through simple interpolations using these multiparametric metamodels, avoiding the need for dynamic optimization. The method is tested with benchmark problems used in the MP-MPC literature. The results show high accuracy and robustness using a simple method, bypassing complex mathematical formulations.Postprint (published version

    Optimal features selection for designing a fault diagnosis system

    No full text
    Fault diagnosis (FD) using data-driven methods is essential for monitoring complex process systems, but its performance is severely affected by the quality of the used information. Additionally, processing huge amounts of data recorded by modern monitoring systems may be complex and time consuming if no data mining and/or preprocessing methods are employed. Thus, features selection for FD is advisable in order to determine the optimal subset of features/variables for conducting statistical analyses or building a machine-learning model. In this work, features selection are formulated as an optimization problem. Several relevancy indices, such as Maximum Relevance (MR), Value Difference Metric (VDM), and Fit Criterion (FC), and redundancy indices such as Minimum Redundancy (mR), Redundancy VDM (RVDM), and Redundancy Fit Criterion (RFC) are combined to determine the optimal subset of features. Another approach of features selection is based on the optimal performance of the classifier, which is achieved by a classifier wrapped with genetic algorithm. Efficiency of this strategy is explored considering different classifiers, namely Support Vector Machine (SVM), Decision Tree (DT), K-Nearest Neighbours (KNN) Classifier and Gaussian Naïve Bayes (GNB). A Genetic algorithm (GA), as a Derivative Free Optimization (DFO) technique, has been used due to the robustness to deal with different kinds of problems. The optimal subset of obtained features has been tested with SVM, DT, KNN, and GNB for the Tennessee-Eastman process benchmark with 19 classes. Results show that, when the performance of the classifier is used as the objective function the wrapper method obtains the best features set.Peer ReviewedPostprint (author's final draft

    Modeling and simulation of complex nonlinear dynamic processes using data based models: application to photo-Fenton process

    No full text
    This paper investigates data based modelling of complex nonlinear processes, for which a first principle model useful for process monitoring and control is not available. These empirical models may be used as soft sensors in order to monitor a reaction’s progress, so reducing expensive offline sampling and analysis. Three different data modelling techniques are used, namely Ordinary Kriging, Artificial Neural Networks and Support Vector Regression. A simple case is first used to illustrate the problem, assess and validate the modelling approach, and compare the modelling techniques. Next, the methodology is applied to a photo–Fenton pilot plant to model and predict the reaction progress. The results show promising accuracy even when few training points are available, which results in huge savings of time and cost of the experimental work.Postprint (published version

    Sistema integrado de gestión de la energía y los recursos ambientales para procesos industriales económicamente sostenibles - SIGERA

    No full text
    El análisis de la sostenibilidad (económica, social y/o ambiental) asociada a la toma de decisiones de gestión requiere considerar globalmente toda la cadena de suministro implicada en la producción de un determinado bien o servicio. Pero la práctica totalidad de los sistemas de soporte a la decisión aplicables a la industria de proceso (y en muchos otros ámbitos) parte de una visión centralizada de dicha cadena de suministro, en la que un único gestor toma decisiones sobre todos los eslabones, sin considerar los objetivos específicos de cada uno de estos eslabones (que en la práctica suelen pertenecer a diferentes actores). O bien asumen que hay una única sección “importante” en la cadena (la propia), mientras que el resto de los eslabones están “al servicio” de dicha sección. El proyecto SIGERA ha permitido el desarrollo de herramientas de soporte a la decisión basadas en la aplicación de criterios sistemáticos, transparentes y objetivos para la gestión integrada de recursos en la industria de proceso, específicamente en situaciones en las que es determinante gestionar simultáneamente varios de estos recursos en entornos cooperativos, competitivos o mixtos (cadenas de suministro). Para ello se han desarrollado y combinado modelos que representan el consumo, la utilización y/o la generación de los diferentes recursos considerados, tanto externos como internos, y tanto propios como ajenos (los límites de la cadena de suministro los establece el gestor). Adicionalmente, se han incorporado dos aspectos habitualmente simplificados (cuando no ignorados) al abordar este tipo de problemas: la incertidumbre asociada a la información (endógena y/o exógena) y la naturaleza multiobjetivo de todo problema de toma de decisiones. La complejidad de los modelos a tratar ha requerido el desarrollo de nuevas estrategias de optimización que, aunque están basadas en diferentes paradigmas de la ingeniería de procesos (programación matemática, teoría de juegos, técnicas de reducción de objetivos, etc.), constituyen un avance en cuanto a su forma de aplicación y/o en su adaptación (por ejemplo, en su aplicación al desarrollo y en su utilización sobre modelos basados en datos y/o híbridos - metamodelos). Los prototipos desarrollados se han aplicado a diferentes situaciones, muchas de ellas basadas en cadenas de suministro que incluyen directamente eslabones de transformación de recursos ambientales: sistemas de poli generación energética, aprovechamiento del ciclo del agua, sistemas de control de la contaminación, gestión de redes de distribución, cierre de ciclos de materiales, etc. Los resultados obtenidos demuestran la utilidad de los procedimientos ideados en situaciones hasta ahora no abordadas ni tan solo en el ámbito académico

    Extendiendo los Horizontes Productivos frente a la Paradoja de la Integración - EHMAN

    No full text
    El proyecto EHMAN ha abordado la optimización global de un sistema productivo (EWMO) planteando la necesidad de una coherencia entre los modelos matemáticos y las metodologías habitualmente utilizados por separado para resolver el problema de diseño de la red de proceso (ubicación de centros productivos, almacenes y centros de distribución, selección de capacidades y tecnologías, etc.), el problema de planificación (incluyendo decisiones de distribución, control de inventarios, previsión de la demanda de productos, etc.) y el problema del control básico de los diferentes elementos individuales de la red. Esto ha llevado al desarrollo y la aplicación de modelos integrados, que permiten una utilización sistemática de herramientas de cálculo matemático para identificar nuevas oportunidades de mejora a todos los niveles, y tratando de forma equivalente un sistema productivo y sus diferentes partes. La implementación del modelo resultante a través de una ontología, y la incorporación en el mismo sistema de elementos para caracterizar la producción (incluyendo aspectos financieros y ambientales, riesgo e incertidumbre) ha permitido abordar de forma más eficiente la explotación de las sinergias entre los componentes de la red de proceso y/o entre los diferentes niveles de decisión y, por tanto, lograr una mayor y mejor coordinación y cooperación entre estos componentes, evitando la ineficiencia asociada a las decisiones propias de cada uno de los niveles de toma de decisión o a las de cada uno de los componentes de la red (“optimizaciones locales”). Así, por ejemplo, la incorporación de información procedente de los módulos de control básico a la formulación del problema de programación de operaciones ha permitido plantear el manejo de la capacidad de equipo tanto a nivel estratégico como operacional. Este enfoque, aplicado de forma sistemática a otras situaciones, permite plantear la reacción a las incidencias que ocurren en los componentes de la red en el nivel más apropiado de la jerarquía de toma de decisiones. A través de diferentes ejemplos, tanto académicos como de dimensión industrial, la aplicación de estos modelos se ha demostrado útil para identificar y evaluar nuevas alternativas estructurales, políticas de gestión más eficientes, y opciones de diseño más económicas, que requieren menos recursos, generan menos residuos y ofrecen una mejor respuesta a la dinámica de las necesidades del mercado y de las variaciones operacionales
    corecore